Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllenRegelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von SprachmodellenPlanung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von LösungsansätzenAktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-ErstellungSehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KISicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAITiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-EvaluationKenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code RetrievalSehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWSHoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzenDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllen Regelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von Sprachmodellen Planung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von Lösungsansätzen Aktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-Erstellung Sehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KI Sicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAI Tiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-Evaluation Kenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code Retrieval Sehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWS Hoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzen Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining) Entwicklung und Implementierung von Datenmodellen zur Prozessoptimierung Nutzung von Google Cloud Platform (GCP) für Datenmanagement und Analyse Aufbau von skalierbaren Datenpipelines und ETL-Prozessen Zusammenarbeit mit internen Fachbereichen zur Digitalisierung und Automatisierung Langfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer Fachrichtung Erfahrung als Data Scientist oder in einer ähnlichen Rolle Fundierte Kenntnisse in: Google Cloud Platform (BigQuery, AI/ML-Services) Programmiersprachen: Python, SQL Data Analytics, Machine Learning, Data Mining Erfahrung mit ETL-Prozessen und Cloud-Architekturen Analytisches Denken, strukturierte Arbeitsweise und Kommunikationsstärke Sehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Angenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener Kommunikationsstil Jährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Data Science von Vorteil Analytische, kreative & lösungsorientierte Arbeitsweise sowie Hands-on-Mentalität Teamplayer mit Freude an der interdisziplinären Zusammenarbeit, idealerweise mit Vorerfahrungen im agilen Umfeld Fließend in Deutsch & Englisch Weitere Details zur Stelle Gehalt: 2.117 €/Monat Bitte füge deiner Bewerbung folgende Unterlagen bei: Lebenslauf, aktueller Notenspiegel und Immatrikulationsbescheinigung sowie wenn vorliegend Arbeitszeugnisse und deine gültige Arbeits- und Aufenthaltserlaubnis
Für einen unserer Großkunden suchen wir derzeit eine Unterstützung, die die nachfolgenden Anforderungen erfüllt: Ihre Aufgaben: Implementierung von agentischen Analysesystemen auf Basis strukturierter Daten insbesondere SQL Datenbanken unter Verwendung von LangChain oder LangGraph in Python Analyse, Umstrukturierung und Beschreibung bestehender Datenlandschaften zur optimalen Nutzung in AI Agentensystemen Sicherstellung der Ergebnisqualität von KI Anwendungen beispielsweise durch Evaluationsmethoden wie LLM as a Judge Entwicklung, Containerisierung und Deployment von Anwendungen in einer bestehenden OpenShift Umgebung Erstellung technischer Dokumentationen der entwickelten Systeme und Lösungen Zusammenarbeit mit Data Science, MLOps und Fachbereichen zur Umsetzung produktiver KI Anwendungen Ihr Profil: Umfangreiche Projekterfahrungen (mindestens 3 Projekte) im Bereich KI-Agenten unter Verwendung von LangChain/LangGraph im operativen Einsatz mit, die im Rahmen pro Referenzprojekt nachgewiesen werden können.
Was Dich erwartet Aufbau und Pflege von ETL-Pipelines zur Integration unterschiedlicher DatenquellenGestaltung und Verwaltung von Datenstrukturen, wie Data Warehouses und Data LakesSicherstellung der Datenqualität durch Monitoring und FehleranalysenEnge Zusammenarbeit mit Data Scientists zur Gewinnung datengestützter ErkenntnisseOptimierung und Automatisierung von Datenprozessen für erhöhte Effizienz Das bringst Du mit Abgeschlossenes Studium in Informatik, Datenwissenschaft, Ingenieurwesen oder einer ähnlichen QualifikationFundierte Kenntnisse in SQL und Python sowie Erfahrung mit ETL-ToolsErfahrungen mit Datenbanken und Big-Data-Technologien von VorteilAusgeprägte analytische Fähigkeiten und ProblemlösungsorientierungTeamfähigkeit und Kommunikationsstärke Was wir bieten Attraktive Vergütung: Überdurchschnittliches Gehalt mit individuellen Zuschüssen und ausgezeichneter Entwicklung nach TarifvertragHigh-End Kunden: Zusammenarbeit mit den angesagtesten Unternehmen der AutomobilbranchePROGNUM-Guide - Das Besondere: Bei PROGNUM lassen wir Sie nicht allein!
Ihre Arbeit bildet eine Brücke zwischen akademischer Exzellenz und anwendungsorientierter Relevanz.Hochschulabschluss (Master) in Wirtschaft, Sozialwissenschaften, Psychologie oder verwandten Disziplinen Erfolgreich abgeschlossene Promotion in einem der Wissenschaftsbereiche Mehrjährige aktive Forschungserfahrung und aktuelle Publikationsliste im Bereich, Marketing Entscheidungen und Verbraucherverhalten Erfahrung im eigenständigen Forschungsmanagement und der Zusammenarbeit mit internationalen Forschungseinrichtungen und externen Dienstleistern English language required minimum: C1 and German language: C1 Level Hohe Teamfähigkeit sowie Interesse an interdisziplinärer Zusammenarbeit in ForschungsprojektenEine unbefristete Festanstellung mit attraktivem Vergütungspaket Langfristig abgesicherte Forschungsmittel Publikationen in Top Journals einzureichen Umfassende Unterstützung für eine akademische Karriere Flexible Arbeitszeiten und die Möglichkeit zur mobilen Arbeit, maximal 2 Tage pro Woche Die Möglichkeit, eigene Forschungsschwerpunkte zu setzen und international anerkannte Kooperationen aufzubauenAls Personalberater sind wir exklusiv mit der Betreuung dieses Stellenangebotes beauftragt.
Deine Aufgaben Sie analysieren bestehende aktuarielle Prozesse rund um Reserveanalysen, Abschlüsse nach IFRS und Solvency II sowie Planung und ReportingSie entwickeln und implementieren technische Lösungen zur Automatisierung von ArbeitsabläufenSie identifizieren Potenziale zur Prozessoptimierung und setzen diese aktiv um z.B. mit gängigen Programmiersprachen und DatenbanksystemenSie arbeiten standortübergreifend mit Teams in Frankfurt und Köln sowie mit anderen (inter-)nationalen Einheiten des Unternehmens zusammen Ihre Arbeit bietet Ihnen eine abwechslungsreiche Mischung aus technischer Entwicklung, Analyse und Zusammenarbeit mit verschiedenen Teams Deine Fähigkeiten Sie haben eine Leidenschaft für Prozesse, Daten und Zahlen und begeistern sich für neue TechnologienSie haben Berufserfahrung als Data Scientist oder Data Engineer, idealerweise im (aktuariellen) VersicherungsumfeldSie können Erfolge in der Prozessoptimierung und -automatisierung nachweisenSie programmieren gerne und haben vertiefte Kenntnisse in modernen Programmiersprachen wie R, Python oder SQLSie arbeiten eigenverantwortlich und strukturiert, sind teamfähig und treten souverän aufSie haben ein erfolgreich abgeschlossenes Studium in Data Science, Mathematik oder einem vergleichbaren FachgebietSie besitzen gute Excel-Kenntnisse; aktuarielle Grundkenntnisse sind von VorteilSie sprechen sehr gutes Deutsch und Englisch in Wort und Schrift.
Deine Aufgaben Sie analysieren bestehende aktuarielle Prozesse rund um Reserveanalysen, Abschlüsse nach IFRS und Solvency II sowie Planung und ReportingSie entwickeln und implementieren technische Lösungen zur Automatisierung von ArbeitsabläufenSie identifizieren Potenziale zur Prozessoptimierung und setzen diese aktiv um z.B. mit gängigen Programmiersprachen und DatenbanksystemenSie arbeiten standortübergreifend mit Teams in Frankfurt und Köln sowie mit anderen (inter-)nationalen Einheiten des Unternehmens zusammen Ihre Arbeit bietet Ihnen eine abwechslungsreiche Mischung aus technischer Entwicklung, Analyse und Zusammenarbeit mit verschiedenen Teams Deine Fähigkeiten Sie haben eine Leidenschaft für Prozesse, Daten und Zahlen und begeistern sich für neue TechnologienSie haben Berufserfahrung als Data Scientist oder Data Engineer, idealerweise im (aktuariellen) VersicherungsumfeldSie können Erfolge in der Prozessoptimierung und -automatisierung nachweisenSie programmieren gerne und haben vertiefte Kenntnisse in modernen Programmiersprachen wie R, Python oder SQLSie arbeiten eigenverantwortlich und strukturiert, sind teamfähig und treten souverän aufSie haben ein erfolgreich abgeschlossenes Studium in Data Science, Mathematik oder einem vergleichbaren FachgebietSie besitzen gute Excel-Kenntnisse; aktuarielle Grundkenntnisse sind von VorteilSie sprechen sehr gutes Deutsch und Englisch in Wort und Schrift.
Als Senior Professional Data-Engineer wirst du in unserer Tribe-Organisation stetig gefordert und gefördert, hast die Möglichkeit deine eigenen Ideen mit einzubringen und dich fachlich exorbitant schnell zu entwickeln. In Zusammenarbeit mit unseren Bestands- und Neukunden leben wir eine Community of Practice und pflegen intern eine kollegiale Firmenkultur in einem dynamischen Team.
Umsetzung von Anforderungen mehrheitlich im Backend (Java, Spring Boot, Postgres) sowie teilweise im Frontend (Angular, Typescript)Durchführung von technischen Konzeptionen, Analysen und Design neuer FeaturesEntwicklung von Spring-Webapplikationen in der Azure CloudEntwicklung und Pflege von CI/CD-Pipelines für Code-, Daten- und ModellbereitstellungenGemeinsame Verantwortung für die Applikation ChatGPT-SkillInitiale Entwicklung, kontinuierliche Weiterentwicklung und stabiler Betrieb der Systeme im Rahmen der DevOps-Philosophie Fundierte Berufserfahrung auf Senior-Stufe in der Entwicklung moderner WebapplikationenSehr gute Kenntnisse in Java, Spring Boot, Angular und TypescriptHochschulabschluss in Informatik oder gleichwertige BerufserfahrungGutes Verständnis von generativen KI-Lösungen (Azure OpenAI Service), einschliesslich Infrastruktur-, Datenverarbeitungs- und BereitstellungsanforderungenFähigkeit zur Zusammenarbeit mit Data Scientists, Entwicklern und Solution ArchitectsBereitschaft, Wissen zu teilen und Teammitglieder in Applikationsentwicklung, IaC und CI/CD zu schulenPython-Erfahrung von VorteilSprachkenntnisse: Deutsch C2, Englisch B2 Arbeit in einem DevOps-Team bestehend aus Data Scientists, Business Engineers und DevOps EngineersMitarbeit am Aufbau einer GenAI-Plattform sowie an der Weiterentwicklung des ChatGPT-SkillsTätigkeit in einem modernen technischen Umfeld mit Cloud-, CI/CD- und GenAI-Technologien Ihr Kontakt Referenznummer 860773/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
SDS‑PAGE, Western Blot, CE‑SDS, SEC‑HPLC, IEX‑HPLC, RP‑HPLC, UV/Vis‑Spektroskopie sowie Aggregat‑ und Partikelanalysen Design of Experiments (DoE): Planung und Auswertung statistisch gestützter Versuchsreihen zur Prozessoptimierung Interpretation analytischer Daten und Ableitung von Prozessoptimierungen Strukturierte Dokumentation, Auswertung und Interpretation großer Datensätze Erstellung wissenschaftlicher Berichte, Präsentationen und technischer Dokumente für interne und externe Zwecke Vorbereitung und Begleitung des Transfers vom Labor‑ in den Pilot‑ oder Produktionsmaßstab Enge Zusammenarbeit mit Upstream Development, Analytics, Quality und Manufacturing Mitwirkung bei der Einführung neuer Technologien und Automatisierungslösungen; Etablierung neuer Aufreinigungs‑ oder Analyseverfahren sowie Bewertung neuer Technologien Mitwirkung bei der Erstellung und Aktualisierung von Standardarbeitsanweisungen (SOPs) Präsentation von Versuchsergebnissen und Prozessdaten in Kundenterminen sowie fachliche Diskussion der Resultate im Rahmen von Projektmeetings Was Du mitbringst Ein abgeschlossenes Studium der Biotechnologie, Biochemie, Bioverfahrenstechnik oder einer verwandten Fachrichtung (Bachelor, Master oder Promotion) Praktische Laborerfahrung, idealerweise im Bereich Proteinaufreinigung oder biotechnologischer Prozessentwicklung (durch Praktika, Abschlussarbeiten oder bereits im Berufsalltag) Erfahrung mit Marktproduktion ist ein Plus Grundkenntnisse in chromatographischen und filtrationsbasierten Verfahren sowie Interesse Erste Erfahrungen mit analytischen Methoden wie SDS‑PAGE, Western Blot oder HPLC‑Verfahren oder die Bereitschaft, Dich hier einzuarbeiten Freude an experimenteller Arbeit, sorgfältiger Dokumentation und einem strukturierten, analytischen Vorgehen Interesse an datenbasierter Prozessoptimierung und statistischen Methoden wie DoE Sicherer Umgang mit MS Office, insbesondere für die Auswertung von Daten und die Erstellung von Berichten und Präsentationen Teamorientierte Arbeitsweise und klare Kommunikation im Austausch mit verschiedenen Fachbereichen Bereitschaft, Ergebnisse verständlich aufzubereiten und auch in Kundengesprächen zu präsentieren Sehr gute Deutsch‑ und Englischkenntnisse in Wort und Schrift Offenheit, Dich fachlich weiterzuentwickeln und neue Technologien kennenzulernen Was Dich erwartet ProSphere.
Testmethodenentwicklung und -Validierung, Erstellung von Prüfvorschriften, Methodentransfer in andere Abteilungen) Auswertung sowie GMP -konforme Dokumentation der Aktivitäten inklusive Prüfung der Daten und Dokumente (inkl. statistischer Auswertung, Visualisierung der Ergebnisse, Berichterstellung in englischer Sprache in elektronischen Systemen) Teilnahme an lokalen / globalen Meetings und Telekonferenzen (englisch und deutsch) Enge Kommunikation und Zusammenarbeit mit anderen Abteilungen in der Forschung und Entwicklung Unterstützung bei Zusammenarbeit mit externen Dienstleistern Probenanforderung, -versand und -lagerung inklusive erforderlicher Dokumentationen Unterstützung bei projektspezifischer Infrastrukturbereitstellung und Qualifikationsarbeiten Ausbildung als BTA/MTA/CTA oder Biologie-/Chemielaborant/in mit Berufserfahrung oder Studium der Ingenieurswissenschaften oder vergleichbare Ausbildung im Bereich Physik, Pharmatechnik, Packmitteltechnologie, Materialwissenschaften oder ähnliches Gutes technisches Verständnis für physikalisches und funktionales Testen, Erfahrungen in diesem Bereich, z.B.
Testmethodenentwicklung und -Validierung, Erstellung von Prüfvorschriften, Methodentransfer in andere Abteilungen) Auswertung sowie GMP -konforme Dokumentation der Aktivitäten inklusive Prüfung der Daten und Dokumente (inkl. statistischer Auswertung, Visualisierung der Ergebnisse, Berichterstellung in englischer Sprache in elektronischen Systemen)Teilnahme an lokalen / globalen Meetings und Telekonferenzen (englisch und deutsch)Enge Kommunikation und Zusammenarbeit mit anderen Abteilungen in der Forschung und EntwicklungUnterstützung bei Zusammenarbeit mit externen DienstleisternProbenanforderung, -versand und -lagerung inklusive erforderlicher DokumentationenUnterstützung bei projektspezifischer Infrastrukturbereitstellung und Qualifikationsarbeiten Ausbildung als BTA/MTA/CTA oder Biologie-/Chemielaborant/in mit Berufserfahrung oder Studium der Ingenieurswissenschaften oder vergleichbare Ausbildung im Bereich Physik, Pharmatechnik, Packmitteltechnologie, Materialwissenschaften oder ähnlichesGutes technisches Verständnis für physikalisches und funktionales Testen, Erfahrungen in diesem Bereich, z.B.
Umsetzung von Anforderungen mehrheitlich im Backend (Java, Spring Boot, Postgres) sowie teilweise im Frontend (Angular, Typescript) Durchführung von technischen Konzeptionen, Analysen und Design neuer Features Entwicklung von Spring-Webapplikationen in der Azure Cloud Entwicklung und Pflege von CI/CD-Pipelines für Code-, Daten- und Modellbereitstellungen Gemeinsame Verantwortung für die Applikation ChatGPT-Skill Initiale Entwicklung, kontinuierliche Weiterentwicklung und stabiler Betrieb der Systeme im Rahmen der DevOps-Philosophie Fundierte Berufserfahrung auf Senior-Stufe in der Entwicklung moderner Webapplikationen Sehr gute Kenntnisse in Java, Spring Boot, Angular und Typescript Hochschulabschluss in Informatik oder gleichwertige Berufserfahrung Gutes Verständnis von generativen KI-Lösungen (Azure OpenAI Service), einschliesslich Infrastruktur-, Datenverarbeitungs- und Bereitstellungsanforderungen Fähigkeit zur Zusammenarbeit mit Data Scientists, Entwicklern und Solution Architects Bereitschaft, Wissen zu teilen und Teammitglieder in Applikationsentwicklung, IaC und CI/CD zu schulen Python-Erfahrung von Vorteil Sprachkenntnisse: Deutsch C2, Englisch B2 Arbeit in einem DevOps-Team bestehend aus Data Scientists, Business Engineers und DevOps Engineers Mitarbeit am Aufbau einer GenAI-Plattform sowie an der Weiterentwicklung des ChatGPT-Skills Tätigkeit in einem modernen technischen Umfeld mit Cloud-, CI/CD- und GenAI-Technologien Ihr Kontakt Referenznummer 860773/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
MID – Driving Continuous TransformationNeben Deiner Tätigkeit als Consultant bist Du Teil eines agil-organisierten Teams, dass sich auf die Produktentwicklung im Bereich Data Science fokussiert und mittels Daten komplexe Entscheidungen zielgerichtet und systematisch-automatisiert trifft.Dabei hältst Du aktuelle technische und branchenbezogene Marktentwicklungen zu den Themen Advanced Analytics, Machine Learning sowie Künstliche Intelligenz stets im Blick und evaluierst, wie diese thematisch in unsere Kundenprojekte und Produktlandschaft passen.Außerdem übernimmst Du im Kontext von Kundenprojekten verschiedene Aufgaben wie die Beschaffung und Aufbereitung großer Datensätze, die Analyse von Daten mittels statistischer Methoden und Machine Learning sowie die technische Entwicklung von Anwendungen.In Zusammenarbeit mit anderen Abteilungen unterstützt Du uns mit Deinem technischen Fachwissen innerhalb des Schwerpunktes Data Science bei der Projektakquise.
Freuen Sie sich auf die Arbeit mit modernsten AI-Plattformen und Frameworks (TensorFlow, PyTorch, LangChain), die Entwicklung intelligenter Anwendungen auf der hauseigenen Plattform AI.nstein, enge Zusammenarbeit mit Data Scientists und KI-Architekten in interdisziplinären Teams und die einzigartige Chance, KI-Innovationen in einem der technologisch anspruchsvollsten Industriebereiche voranzutreiben dort, wo Tradition auf Innovation trifft.
Projekt- & SchnittstellenmanagementVertretung des Fachbereichs als Evaluation Engineer im interdisziplinären Device-EntwicklungsteamKoordination relevanter Arbeitspakete zur DesignverifizierungEnge Zusammenarbeit mit Design Engineering, Quality Development, Risikomanagement und Usability Engineering DAS BRINGEN SIE MIT: Abgeschlossenes Studium in einer Life-Sciences-Disziplin (z.
Als Knowledge Engineer in unserer Tribe-Organisation wirst du stetig gefordert und gefördert, hast die Möglichkeit deine eigenen Ideen mit einzubringen und dich fachlich exorbitant schnell zu entwickeln. In Zusammenarbeit mit unseren starken Partnern leben wir eine Community of Practice und pflegen intern eine familiäre, kollegiale Firmenkultur in einem dynamischen Team.
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du identifizierst technische Verbesserungsmöglichkeiten und setzt diese um – etwa durch Performance Tuning, Automatisierung oder die gezielte Nutzung bestehender oder neuer Features Du gestaltest die Weiterentwicklung unserer Plattform aktiv mit, indem du technische Standards mitentwickelst, Architekturentscheidungen begleitest und eng mit anderen Engineering Teams zusammenarbeitest Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Woran Sie arbeiten werden: Entwicklung und Testen neuer Algorithmen, Modelle und Methoden basierend auf maschinellem Lernen oder anderen Techniken in Zusammenarbeit mit dem Data Science Team Evaluierung und Optimierung von Algorithmen und Modellen, Einbringen innovativer Ideen und neuer Methoden ins Data Science Team, Vorbereitung und Prozessieren von Rohdaten zum Erstellen von Modellen Durchführung von Analysen und Präsentation der Ergebnisse vor dem Data Science Team, Entwicklung von qualitativ hochwertigem Code nach dem "Clean code”-Prinzip und KSB-Standards Perfekt vorbereitet | Sie studieren im Bereich Mathematik, Statistik, Data Science, Informatik, Physik oder vglb.
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B.
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B.
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet.
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet.
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI Reporting SQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender Reports Datenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden Systemlandschaft Aufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mit Datenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werden Operative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiter Ansprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data Management Mehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-Umfeld Nachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query) Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen Datenbanken Tiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-Prozessen Mehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von Prozessen Sehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BI Erfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen Partner Wir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und Vorstellungsgesprächen Wir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe Vermittlungsquote Individuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI ReportingSQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender ReportsDatenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden SystemlandschaftAufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mitDatenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werdenOperative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiterAnsprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data ManagementMehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-UmfeldNachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query)Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen DatenbankenTiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-ProzessenMehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von ProzessenSehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BIErfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen PartnerWir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und VorstellungsgesprächenWir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe VermittlungsquoteIndividuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Python, Java, .NETz, TensorFlow, PyTorch) Aufbau und Integration von Datenpipelines für das Training und den Betrieb von KI-Modellen Zusammenarbeit mit Data Scientists und KI Architekten bei der Umsetzung von KI-Modellen in produktive Umgebungen Sicherstellung von Codequalität, Testbarkeitund Performance durch Clean Code, Unit Tests und automatisierte Tests Durchführung von Fehleranalysen, Optimierung und Weiterentwicklungen bestehender Anwendungen Dokumentation von Entwicklungen und Ergebnissen Untersützung bei der Evaluation neuer Ki-Technologien und Tools Ihr Profil Berufserfahrunge in der Softwareentwicklung (z.B.
Python, Java, .NETz, TensorFlow, PyTorch) Aufbau und Integration von Datenpipelines für das Training und den Betrieb von KI-Modellen Zusammenarbeit mit Data Scientists und KI Architekten bei der Umsetzung von KI-Modellen in produktive Umgebungen Sicherstellung von Codequalität, Testbarkeitund Performance durch Clean Code, Unit Tests und automatisierte Tests Durchführung von Fehleranalysen, Optimierung und Weiterentwicklungen bestehender Anwendungen Dokumentation von Entwicklungen und Ergebnissen Untersützung bei der Evaluation neuer Ki-Technologien und Tools Ihr Profil Berufserfahrunge in der Softwareentwicklung (z.B.
Das blüht Ihnen bei uns – Ihre Aufgaben als Expert/Sachbearbeiter Master Data Management & Product Data (m/w/d): Pflege und Aktualisierung von Stammdaten Prüfung der Datenqualität Unterstützung bei der Durchführung von Datenimporten und -exporten Dokumentation von allen durchgeführten Änderungen Identifikation von Datenfehlern und Zusammenarbeit mit anderen Abteilungen zur Fehlerbehebung Ansprechpartnerfunktion bei Fragen zur Stammdatenpflege sowie Führen von Schulungen zu relevanten Systemen Erstellung von Reports und Analysen sowie Ableitung von Verbesserungsvorschlägen Der Nährboden Ihrer Arbeit – Das bieten wir: Flexibilität & Work-Life-Balance erleben: Sie haben bei uns die Möglichkeit ortsunabhängig aus dem Mobile Office/Remote mit definierten Präsenztagen in Rain zu arbeiten.
Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
Aufgeschlossenheit. Menschlichkeit. Wir bilden eine Gemeinschaft, die auf Zusammenarbeit, Respekt und Unterstützung basiert. Deshalb unterstützen wir Team-Events, Teambuilding-Aktivitäten, T.E.A.M.-Geist-Botschafter/innen in jeder Abteilung und flache Hierarchien.
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet. Hast Du Fragen? Unser Recruiting Team steht Dir gerne zur Verfügung: - Annette Lauterbach, Senior Expert People Management #Telefon +4969566083050 #E-Mail bewerbung@infomotion.de
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet. Hast Du Fragen? Unser Recruiting Team steht Dir gerne zur Verfügung: - Annette Lauterbach, Senior Expert People Management #Telefon +4969566083050 #E-Mail bewerbung@infomotion.de
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Mit uns erhalten Sie die richtige Unterstützung für Ihren beruflichen Erfolg in Zusammenarbeit mit auf Ihre Branche spezialisierten Consultants. Dieses Know-how ermöglicht es uns, Sie individuell und passgenau bei der Planung Ihrer nächsten beruflichen Schritte zu unterstützen.
Du arbeitest routiniert mit Daten, SQL und Python und beherrschst idealerweise Methoden zur Datengenerierung, -aufbereitung und -analyse mit sehr guten Kenntnissen im Finance-Bereich. In enger Zusammenarbeit mit den Fachbereichen identifizierst Du neue Anwendungsfälle im Zusammenhang mit Datenqualität in den jeweiligen Anwendungen, koordinierst Maßnahmen zu dessen Optimierung und erstellst ein entsprechendes Reporting.
Du hast Freude an der Kommunikation in Deutsch (Verhandlungssicher) und Englisch (Fortgeschritten), wie der Zusammenarbeit mit Kolleg:innen aus anderen Abteilungen.Gestalte Deinen Arbeitstag! Flexible Arbeitszeiten innerhalb Deiner 38,5 Std. Woche und mobiles Arbeiten Dein Urlaub kommt nicht zu kurz mit 30 Tagen im JahrEin angemessenes Gehalt ist für uns selbstverständlich!
KG Weyhe Industriestr. 16 28844 Weyhe Das bieten wir Unschlagbare Teampower in einem offenen, leistungsstarken Arbeitsumfeld Attraktives Gehalt 30 Urlaubstage (5 Tage Woche) Vergünstigungen bei Fitnessstudios Das sind deine Aufgaben • Fachliche Verantwortung für die Qualität, Struktur und Konsistenz der SAP Stammdaten in einem Produktionsunternehmen • Unterstützung bei der anstehenden SAP Einführung • Definition, Pflege und Weiterentwicklung von Stammdatenstandards, richtlinien und prozessen • Fachlicher Ansprechpartner für alle Unternehmensbereiche bei Fragen rund um SAP Stammdaten • Koordination und Freigabe von Stammdatenänderungen (Change und Freigabeprozesse) • Enge Zusammenarbeit mit IT, SAP Anwendungsbetreuung und externen Dienstleistern • Mitwirkung bei Projekten (z. B. Releasewechsel) • Analyse von Datenfehlern sowie Ableitung und Umsetzung von Verbesserungsmaßnahmen • Sicherstellung der Einhaltung von Governance Vorgaben und Datenqualitätskriterien • Unterstützung beim Aufbau von KPIs, Dashboards und Mechanismen zur Steuerung der Datenqualität • Schulung und Unterstützung von Anwendern in stammdatenrelevanten Themen Das bringst du mit • Abgeschlossene kaufmännische Ausbildung oder höherwertiger Abschluss • Berufserfahrung im Umgang mit SAP Stammdaten (z.
Deine Arbeit landet nicht in der Schublade – sie wird auf Gruppenebene genutzt. Was dich erwartetDirekte Zusammenarbeit mit Senior ControllernVerantwortung für echte, managementrelevante KPIsInternationales ArbeitsumfeldHoher Lern- und Praxisbezug im Bereich Controlling & BIFlexible Arbeitszeiten und Möglichkeit zu hybridem Arbeiten Auf diese Stelle bewerben Über uns Bergman Clinics ist ein führender Anbieter von fachärztlichen Spezialistenzentren in Europa, mit Hauptsitz in den Niederlanden.
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet. Dein Ansprechpartner - Nadine Kolling, Senior Expert People Management #Telefon 069566083050 #E-Mail bewerbung@infomotion.de
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet. Dein Ansprechpartner - Nadine Kolling, Senior Expert People Management #Telefon 069566083050 #E-Mail bewerbung@infomotion.de
B. mit ETL-Pipelines, Actor-Model-Systemen (Akka/Pekko), Category-Theory-basierten Systemen oder Map-Reduce-Frameworks Praxiserfahrung mit Apache Spark (prioritär) oder vergleichbaren Technologien wie Apache Flink, Hadoop, Kafka Streams oder Cats / Cats Effect Sehr gutes Verständnis von Runtime-Systemen, Execution Contexts und funktionalen Programmierprinzipien Kenntnisse der Ausführungsmodelle (kompiliert, JIT und interpretiert) Sehr gute Programmierkenntnisse in Python sowie zusätzlich in Scala/Java, C/C++ oder Rust Erfahrung in Projektumgebungen (Planung, Koordination und Tracking technischer Aufgaben) Erfahrung in der Zusammenarbeit in Teams, inkl. Abstimmung von Aufgaben und Informationsaustausch über verschiedene Rollen hinweg Verhandlungssicher in Deutsch und Englisch Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen Branche Ihr Kontakt Ansprechpartner Maximilian Nikolaus Miedtke Referenznummer 864683/1 Kontakt aufnehmen E-Mail: maximilian.miedtke@hays.ch Anstellungsart Freiberuflich für ein Projekt
B. mit ETL-Pipelines, Actor-Model-Systemen (Akka/Pekko), Category-Theory-basierten Systemen oder Map-Reduce-Frameworks Praxiserfahrung mit Apache Spark (prioritär) oder vergleichbaren Technologien wie Apache Flink, Hadoop, Kafka Streams oder Cats / Cats EffectSehr gutes Verständnis von Runtime-Systemen, Execution Contexts und funktionalen ProgrammierprinzipienKenntnisse der Ausführungsmodelle (kompiliert, JIT und interpretiert)Sehr gute Programmierkenntnisse in Python sowie zusätzlich in Scala/Java, C/C++ oder RustErfahrung in Projektumgebungen (Planung, Koordination und Tracking technischer Aufgaben)Erfahrung in der Zusammenarbeit in Teams, inkl. Abstimmung von Aufgaben und Informationsaustausch über verschiedene Rollen hinwegVerhandlungssicher in Deutsch und Englisch Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen Branche Ihr Kontakt Ansprechpartner Maximilian Nikolaus Miedtke Referenznummer 864683/1 Kontakt aufnehmen E-Mail: maximilian.miedtke@hays.ch Anstellungsart Freiberuflich für ein Projekt
Du führst eigenständig Anforderungsanalysen durch, implementierst robuste ETL/ELT‑Prozesse sowie wiederverwendbare Datenpipelines und stellst die Datenqualität sicher.Du leistest einen maßgeblichen Beitrag zur kontinuierlichen Verbesserung der Datenqualität und Automatisierung der FUTRUE-Gruppe.Du bist verantwortlich für die Verprobung und Validierung von Ergebnissen in Zusammenarbeit mit den Fachbereichen.Du erstellst Unterlagen für das Top-Management und präsentierst Deine Ergebnisse in Management-Meetings.Du hast Dein Studium im Bereich der Mathematik, Informatik, Betriebswirtschaftslehre oder einem ähnlichen Studiengang abgeschlossen und verfügst über Basiswissen im Bereich Data & Business Intelligence.Du überzeugst durch eine ausgeprägte analytische Fähigkeiten und hast eine hohe Zahlenaffinität.Du beherrschst (T‑)SQL auf fortgeschrittenem Niveau (Komplexe Joins, Window‑Funktionen) und nutzt Python (z.
Ihre Aufgaben im Finanzbereich: Präzise Übertragung von Finanzberichten (Bilanz und Gewinn- und Verlustrechnung) ins interne BARS-System Schwerpunkt GmbH-StrukturenPrüfung, Analyse und Sicherung von Konsistenz, Genauigkeit und Vollständigkeit der Finanzdaten Enge Zusammenarbeit mit Kreditmanagern und Kundenbetreuer*innen zur Klärung von Unstimmigkeiten Dokumentation aller Schritte inklusive Prüfpfade für Finanzübertragungen und Unterstützung bei periodischen Reportings und Validierungen Strikte Einhaltung interner Standards, gesetzlicher Vorgaben und Compliance-Richtlinien Ihre Qualifikation: Abgeschlossenes Studium im Bereich Finanzen, Rechnungswesen oder einem verwandten Fachgebiet; alternativ eine kaufmännische Ausbildung mit entsprechender Berufserfahrung Mehrjährige Berufserfahrung in der Finanzanalyse, Kreditrisiko oder vergleichbarer Position Fundiertes Verständnis von Finanzberichten, buchhalterischen Grundsätzen und Finanzanalyse; sicherer Umgang mit Microsoft Excel; Erfahrung mit BARS oder ähnlichen Tools von Vorteil Hohe Genauigkeit, ausgeprägtes Auge fürs Detail sowie starke Kommunikations- und Kooperationsfähigkeit in deutscher SpracheFähigkeit, Aufgaben eigenständig umzusetzen und effektiv in einem internationalen Team zusammenzuarbeiten Wir bieten: Moderner Arbeitsplatz in Berlin-Charlottenburg mit sehr guter Verkehrsanbindung Möglichkeit zu 40 % Homeoffice nach Einarbeitung Abwechslungsreiche Tätigkeit in einem internationalen UmfeldIntensive Einarbeitung durch erfahrene Teamkollegen (m/w/d)Betriebliche Altersvorsorge zur Absicherung Ihrer ZukunftHofmann-App: Digitale Urlaubs- und Gleitzeitanträge direkt auf Ihrem Handy, Fit-Coach mit Rezepten, Sportübungen und vielem mehr Starten Sie Ihre Karriere bei Hofmann!
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet. Deine Ansprechpartnerin Hast Du Fragen? Unser Recruiting Team steht Dir gerne zur Verfügung - Svjetlana Grajic, Senior Expert People Management #Telefon +4969566083050 #E-Mail bewerbung@infomotion.de
Lerne die INFOMOTION Kultur kennen, die Geselligkeit, Humor und Toleranz mit echter Zusammenarbeit und gegenseitiger Unterstützung verbindet. Deine Ansprechpartnerin Hast Du Fragen? Unser Recruiting Team steht Dir gerne zur Verfügung - Svjetlana Grajic, Senior Expert People Management #Telefon +4969566083050 #E-Mail bewerbung@infomotion.de
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQL Anforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best Practices Aufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und Monitoring Strategische Beratung zu Datenarchitekturen, Technologien und Tools Aktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Engineering und idealerweise auch Data Architecture Sehr gute Kenntnisse in der Programmierung mit Python, SQL und Shell Sicherer Umgang mit Infrastructure-as-Code, z.B.